Comment l’Union européenne investit déjà dans des intelligences artificielles à « haut risque » pour contrôler ses frontières


Le Parlement européen a adopté, mercredi 14 juin, l’AI Act (pour Artificial Intelligence Act), un texte de régulation des intelligences artificielles. L’idée est de proposer « un cadre réglementaire pour la mise au marché avec le triptyque sécurité, santé, droits fondamentaux, résume Arnaud Latil, maître de conférences en droit public à Sorbonne Université. L’Union européenne [UE], comme ce qu’elle a fait auparavant avec le règlement général sur la protection des données, utilise avec l’AI Act la doctrine dite de l’“approche par les risques” ».

En l’état, le règlement adopté par le Parlement classe les systèmes d’intelligence artificielle (IA) selon un niveau de risque allant de « minime » à « inacceptable ». Les interdictions y sont rares : elles concernent les usages contraires aux valeurs européennes, comme les « systèmes de crédit social » ou de vidéosurveillance de masse utilisés en Chine. Les eurodéputés veulent aussi supprimer les dérogations prévues par la Commission européenne pour autoriser la reconnaissance faciale à distance des personnes dans les lieux publics par les forces de l’ordre. S’agissant des systèmes d’IA à « haut risque », ils devront se conformer au régime le plus strict en matière de transparence, de gestion des risques et de gouvernance des données.

Les organisations non gouvernementales (ONG) et la société civile restent cependant réservées, jugeant que pour la politique migratoire de l’Europe, un domaine dans lequel l’IA est déjà utilisée aux frontières de l’UE, le règlement ne donne pas suffisamment de garanties.

L’angle mort des politiques migratoires

« L’AI Act est la première loi de régulation à l’échelle régionale, et quand on voit le développement croissant des intelligences artificielles, c’est une bonne chose. Mais force est de constater qu’elle ne va pas assez loin, que le diable se cache dans les détails », regrette Petra Molnar, avocate et directrice associée du laboratoire Droit des réfugiés à l’Université York (Canada). Ici, le détail c’est l’annexe 9 de l’AI Act, par lequel le texte renonce à réglementer les IA appartenant à des systèmes informatiques à grande échelle si ceux-ci sont déjà utilisés dans le cadre de la gestion des migrations.

Ainsi, le sBMS, développé par les entreprises françaises Idemia et Sopra Steria, agrège les empreintes digitales et les portraits de plus de 400 millions de ressortissants de pays tiers. Or ce sont précisément ces bases de données sur lesquelles entend s’appuyer un logiciel en cours de développement depuis septembre 2020 : ITFlows, financé par l’UE à hauteur de 4,8 millions d’euros. Celui-ci mobilise une IA pour prédire des flux migratoires, identifiant ainsi les « risques de tensions » liés à l’arrivée de personnes migrantes aux frontières de l’UE.

Il vous reste 54.65% de cet article à lire. La suite est réservée aux abonnés.



Source
Catégorie article Politique

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.